在这项工作中,我们为软机器人蛇提供了一种基于学习的目标跟踪控制方法。受到生物蛇的启发,我们的控制器由两个关键模块组成:用于学习靶向轨迹行为的增强学习(RL)模块,给出了软蛇机器人的随机动力学,以及带有Matsuoka振荡器的中央模式生成器(CPG)系统,用于产生稳定而多样的运动模式。基于提议的框架,我们全面讨论了软蛇机器人的可操作性,包括在其蛇形运动期间的转向和速度控制。可以将这种可操作性映射到CPG系统振荡模式的控制中。通过对Matsuoka CPG系统振荡性能的理论分析,这项工作表明,实现我们软蛇机器人的自由移动性的关键是正确限制和控制Matsuoka CpG系统的某些系数比率。基于此分析,我们系统地制定了CPG系统的可控系数,供RL代理运行。通过实验验证,我们表明,在模拟环境中学习的控制政策可以直接应用于控制我们的真正的蛇机器人以执行目标跟踪任务,而不管模拟与现实世界之间的物理环境差距如何。实验结果还表明,与我们先前的方法和基线RL方法(PPO)相比,我们的方法对SIM到现实过渡的适应性和鲁棒性得到了显着改善。
translated by 谷歌翻译
目的:对于下臂截肢者,机器人假肢承诺将重新获得日常生活活动的能力。基于生理信号(例如肌电图(EMG))的当前控制方法容易由于运动伪影,肌肉疲劳等导致不良的推理结果。视觉传感器是有关环境状态的主要信息来源,可以在推断可行和预期的手势中发挥至关重要的作用。但是,视觉证据也容易受到其自身的伪像,最常由于对象阻塞,照明变化等。使用生理和视觉传感器测量的多模式证据融合是一种自然方法,这是由于这些模态的互补优势。方法:在本文中,我们提出了一个贝叶斯证据融合框架,用于使用眼部视频,眼睛凝视和来自神经网络模型处理前臂的EMG的掌握意图推理。当手接近对象以掌握对象时,我们将个人和融合性能分析为时间的函数。为此,我们还开发了新颖的数据处理和增强技术来训练神经网络组件。结果:我们的结果表明,相对于EMG和视觉证据,平均而言,融合会提高即将到来的GRASP类型分类准确性,而在触及阶段则提高了13.66%和14.8%的融合,从而单独地和视觉证据,总体融合精度为95.3%。结论:我们的实验数据分析表明,EMG和视觉证据表明互补的强度,因此,多模式证据的融合可以在任何给定时间胜过每个单独的证据方式。
translated by 谷歌翻译